INFORMATIQUE - Évolution des systèmes de traitement de l’information

INFORMATIQUE - Évolution des systèmes de traitement de l’information
INFORMATIQUE - Évolution des systèmes de traitement de l’information

Un usage maintenant bien établi associe étroitement le mot «informatique» au principe du traitement de l’information à l’aide de machines électroniques perfectionnées. Sans insister sur l’ambiguïté de l’expression «traitement de l’information» et sur la constatation qu’on peut très bien faire de l’informatique sans faire appel aux ordinateurs, il est intéressant de noter que l’introduction du néologisme «ordinateur» (par la compagnie I.B.M.-France, dans les années cinquante) traduit bien la nécessité de recourir à une terminologie spécifique. Sans doute la première finalité des «computers» a-t-elle été d’aider l’homme à surmonter tant bien que mal l’opposition classique qui sépare la compétence de la performance. Les premières machines ont eu effectivement pour mission de suppléer aux insuffisances humaines en matière de performance: on pouvait alors résoudre de complexes équations différentielles, calculer les paramètres de la première bombe atomique, procéder au recensement des citoyens américains, en manipulant d’énormes masses de données et dans un temps relativement bref. Mais, très vite, ces machines, qui n’étaient alors que des calculatrices électroniques, ont été détournées de leur but primitif et sollicitées pour accroître la performance de l’homme dans le domaine plus vaste de l’organisation et du traitement de l’information en général. Il fallait une autre désignation: la calculatrice est devenue ordinateur.

On analysera dans ce qui suit l’évolution des grands systèmes de traitement de l’information et de leurs différents constituants, matériel (hardware ), périphériques, logiciel (software ), en essayant de mettre en évidence les premières étapes du développement d’une industrie qui n’avait pas encore atteint l’âge de sa maturité.

Évolution du matériel

L’ensemble des dispositifs et circuits qui constituent le cœur des ordinateurs dans leur réalité physique, communément appelé «matériel» ou «hardware», a subi depuis 1944 une évolution spectaculaire. Cette évolution est évidemment liée au perfectionnement des technologies offertes par l’industrie spécialisée (Fairchild, Texas Instruments, Intel...), mais elle en est davantage le résultat que la cause, et, sauf quelques exceptions remarquables (tores de ferrite, bulles magnétiques), elle apparaît plus comme un sous-produit des recherches effectuées sur les composants par les professionnels que comme une force suscitant le développement de techniques nouvelles spécifiques à ses besoins propres. Il semblerait en effet qu’au cours de son histoire l’industrie des ordinateurs n’ait tiré profit des possibilités caractérisant les matériels de base présents sur le marché qu’au coup par coup et dans des conditions tout à fait pragmatiques, voire anarchiques. Nous examinerons plus loin les conséquences de cette situation qui, au moins jusqu’à l’apparition des ordinateurs de quatrième génération, a contraint les constructeurs et les utilisateurs à se plier aux exigences du matériel sans pouvoir en contrôler les spécifications.

Dans la conception des ordinateurs quatre facteurs principaux interviennent: la vitesse élémentaire de commutation, la complexité, la consommation d’énergie et le coût. Ces facteurs ne sont évidemment pas indépendants. Ils mettent cependant en évidence les soucis primordiaux qui sont à la base des activités liées au traitement de l’information: considérations physiques, appréhension du temps et de l’espace, considérations économiques, coûts de fabrication, de maintenance, de fonctionnement. L’évolution des mémoires (contrôle de l’espace de stockage, contrôle des temps d’accès) et des circuits (contrôle des temps de propagation des signaux) illustre ces préoccupations.

En 1944, la première «calculatrice automatique à séquence contrôlée» (automatic sequence controlled calculator ) voit le jour: c’est la fameuse Mark I d’I.B.M. Il s’agit d’une machine électromécanique qui fonctionne à l’aide d’une impressionnante «quincaillerie»: 800 kilomètres de câbles électriques, plus de 7 000 relais mécaniques; elle pèse 5 tonnes. Elle sera suivie, en 1946, par la véritable première calculatrice électronique, l’Eniac (université de Pennsylvanie), qui n’est pas moins impressionnante: 14 tonnes, 18 000 lampes. Les circuits logiques sont discrets, les composants de base sont des tubes à vide, le câblage des circuits est réalisé à l’aide de fils et de tableaux de connexion. La conception mise à part, rien n’est donc vraiment original: les lampes sont des lampes radio classiques, les tableaux de connexion et les relais proviennent de la mécanographie. Les transistors eux-mêmes, mis au point en 1948, ne remplaceront les tubes qu’à partir de 1954 (transistors bipolaires au germanium), à peu près au moment où seront proposés les premiers circuits imprimés. Mais, là encore, ni les transistors, ni les circuits imprimés n’étaient, à l’origine, destinés aux ordinateurs. En 1955, toutefois, apparaît un dispositif spécifique, la mémoire à tores de ferrite (IBM 704), qui restera longtemps l’élément de mémoire privilégié jusqu’à l’avènement des mémoires à semi-conducteurs en 1965, lesquelles ne seront vraiment répandues que vers 1970. L’année 1958 est cruciale. C’est en effet à cette époque que débute le développement spectaculaire des technologies de base qui seront à l’origine de l’extraordinaire expansion de l’industrie des ordinateurs. 1958 est l’année du lancement du transistor planar , qui, de par sa conception, sera tout à fait approprié à une fabrication de masse que le futur développement des circuits intégrés rendra nécessaire. Ceux-ci apparaissent en 1959, et, deux ans plus tard, on sait déjà intégrer plusieurs milliers de transistors sur une seule pastille (chip ). En 1964, les circuits intégrés à transistors bipolaires sont monnaie courante, et les temps de propagation des signaux à travers les circuits élémentaires atteignent quelques nanosecondes. Mais, une fois de plus, il faut souligner que le concept de circuit intégré, tout comme celui de miniaturisation, n’est pas le fait de l’industrie des ordinateurs; il répond en réalité à une exigence formulée par l’industrie spatiale: besoin de composants peu volumineux, fiables, performants et de consommation réduite. L’intégration suit alors une loi selon laquelle le nombre de composants par circuit double chaque année: de 1959 à 1964, intégration à faible échelle, technologie TRL, de 1 à 16 composants par circuit; de 1964 à 1969, intégration à moyenne échelle (MSI), technologie TTL, de 64 à 1 024 composants par circuit. La technologie MOS et ses dérivés date de 1969. En 1971, l’intégration à grande échelle (LSI) est mise au point en technologie MOSFET (transistors à effet de champ) ou CCD (mémoires à transfert de charge); c’est le début de l’ère de la miniaturisation. Les microprocesseurs apparaissent (Intel, Motorola, etc.); le microprocesseur Intel 8748 (technologie n -MOS) comporte 20 000 transistors sur une plaquette de 5,6 mm 憐 6,6 mm (temps d’accès: 25 nanosecondes). En 1979, on savait construire une mémoire de 65 536 bits sur une pastille de 4,4 mm 憐5,8 mm (technologie CCD); la procédure d’intégration à très grande échelle (VLSI) permettra d’améliorer la capacité: une puce peut comporter 30 000 transistors sur 1 millimètre carré de silicium. En ce qui concerne la technologie de base, les efforts portent d’une part sur les mémoires à bulles magnétiques (conçues en 1973) et les dispositifs basés sur la supraconductivité avec des temps de commutation de l’ordre de quelques picosecondes (jonctions Josephson et leurs applications). Les mémoires à bulles magnétiques (I.B.M., Intel, Texas Instruments...) sont opérationnelles: Intel, par exemple, met au point en 1979 une mémoire à bulles magnétiques d’un million de bits (densité de 500 000 bits par centimètre carré). L’évolution de la capacité d’intégration depuis 1980 a dépassé toutes les prévisions, surtout grâce au développement de la technologie des mémoires à semi-conducteurs.

L’architecture

L’architecture d’un ordinateur caractérise l’organisation interne de la machine. Elle est déterminée en fonction d’objectifs imposés par des considérations fonctionnelles (performances, souplesse d’utilisation, types d’applications), économiques (coûts, politique commerciale du constructeur) et techniques (matériel disponible au moment de la conception), ce qui fait qu’elle est soumise à des contraintes par nature antagonistes. À l’origine, les systèmes ne sont que des calculatrices directement issues de la mécanographie et leur architecture est simple: l’IBM 603 (1948) n’est qu’une tabulatrice munie de multiplicateurs électroniques. La logique est séquentielle, il n’y a pas de simultanéité dans les entrées/sorties. L’introduction d’applications de type commercial (vers 1954) pose le problème fondamental des performances. Il faut être en mesure de traiter le maximum de données dans le minimum de temps. Or, les unités d’entrée/sortie sont lentes et leurs temps de base, d’ordre mécanique, ne sont pas à la même échelle que les temps de traitement, d’ordre électronique. On résout le problème au mieux en incorporant des dispositifs spéciaux, les canaux, qui, associés à un système de registres, autorisent une certaine simultanéité des opérations de calcul et de transfert d’information. La fin des transferts est signalée par des «interruptions». Au cours de la période 1954-1964, l’organisation interne des ordinateurs évolue d’une manière typique. Cette évolution se traduit par une hiérarchisation progressive des mémoires (mémoires lentes, mémoires rapides), et par une centralisation assez poussée. En 1959, le recours à la technologie intégrée, qui diminue les coûts, rend possibles la multiplication et la spécialisation des registres, ce qui permet d’améliorer sensiblement les performances. Les ordinateurs de ce qu’il est convenu d’appeler la troisième génération (IBM 360, GE 400, Burroughs 6500, etc., vers 1964) présentent une architecture de plus en plus hiérarchisée et reflètent plus que jamais les préoccupations des constructeurs en matière de temps, d’espace et de fiabilité. Les mémoires se diversifient, on généralise les interruptions hiérarchisées (systèmes de priorités), tandis que la division du travail au sein de l’unité centrale s’accentue (fonctions spécialisées: arithmétique fixe, flottante, traitement des caractères; ou fonctions déléguées à d’autres unités: calcul d’adresse, compteurs d’instructions, etc.). En même temps, le cheminement des informations au sein du système devient de plus en plus complexe et les opérations automatiques de contrôle et de vérification se multiplient. À partir de 1971 (quatrième génération), les systèmes conversationnels et le télétraitement acquièrent droit de cité. Mais si les configurations se décentralisent avec l’emploi des microprocesseurs (1975), l’architecture propre des systèmes demeure toujours hautement hiérarchisée. On peut dire que c’est l’image d’un pouvoir bureaucratique.

Évolution des périphériques

Les opérations effectuées par un ordinateur n’ont de sens que dans la mesure où il peut y avoir communication entre la machine et le monde extérieur représenté par l’homme ou par une autre machine. Indépendamment des problèmes de langage, cette communication pose des problèmes de lisibilité, de volume et de vitesse. Les premiers ordinateurs ont hérité de la mécanographie les supports informationnels basés sur l’utilisation des perforations: cartes perforées, bandes perforées. Les premières imprimantes dérivaient directement des tabulatrices classiques. Ces matériels comportaient un certain nombre d’inconvénients qui tenaient à la fois à leur manipulation incommode, à une lisibilité douteuse et à des performances insuffisantes. Depuis, l’amélioration des caractéristiques des organes d’entrée/sortie a permis d’obtenir des performances plus acceptables: des lecteurs de cartes fonctionnent à la cadence de 1 200 cartes par minute en 1969, les imprimantes atteignent plusieurs milliers de lignes par minute. Mais l’introduction des terminaux à écran cathodique bouleverse la situation. On peut désormais communiquer directement avec l’ordinateur et recevoir de celui-ci des informations directement assimilables, en temps réel (par l’intermédiaire d’un logiciel cependant complexe). Les grandes masses de documents de sortie sont traitées en mode batch , en différé. Le recours aux terminaux dits intelligents, avec microprocesseur incorporé, améliore encore la communication: le traitement des informations d’entrée ou de sortie est décentralisé, le rôle de l’unité centrale se résume à celui d’un organe gestionnaire de tâches. En ce qui concerne les mémoires auxiliaires, on assiste, à partir de 1953 (début des applications à caractère commercial), à un effort important destiné à accroître la capacité mémoire des ordinateurs par l’utilisation d’unités spécialisées: tambours magnétiques, bandes magnétiques, disques. Aujourd’hui, les systèmes de télétraitement, le temps partagé, la multiprogrammation et le concept de mémoire virtuelle exigent des ressources considérables en mémoires auxiliaires qui donnent un rôle prépondérant aux disques à forte capacité et à faible temps d’accès. Mentionnons enfin le développement de périphériques particuliers (tables traçantes, lecteurs de caractères optiques, systèmes d’affichage à diodes électroluminescentes, etc.) qui sont le véritable reflet des pressions du marché en faveur d’organes autorisant une communication directe avec le milieu extérieur. Cette évolution donne au logiciel (et, dans certains cas, au firmware ) la charge de supporter des périphériques de plus en plus évolués, libérant ainsi l’utilisateur des tâches intermédiaires de transcription ou d’interprétation.

Évolution du logiciel

La notion de programme enregistré n’est pas nouvelle: Charles Babbage l’avait déjà évoquée en 1833. Ce n’est qu’en 1945, cependant, que John von Neumann, reprenant et améliorant les idées de Babbage, suggère d’incorporer dans la mémoire les instructions de traitement en même temps que les données et selon la même codification. Les instructions sont alors exploitées comme des données ordinaires. En fait, quelques années seront nécessaires pour que les principes de von Neumann soient appliqués. La raison en est que les ordinateurs, à leurs débuts, ont du mal à s’affranchir, là encore, des habitudes et des méthodes de la mécanographie. Si, en 1948, les premiers assembleurs (rudimentaires) et quelques programmes utilitaires sont en fonctionnement, la programmation demeure essentiellement câblée (tableaux de connexion). Naturellement, à cette époque, le matériel prédomine, et les communications entre l’homme et l’ordinateur ne s’effectuent pas sur des bases simples, à cause du système binaire imposé par la machine. Vers les années 1954-1957, le souci de faciliter la tâche de l’utilisateur conduira à l’élaboration de langages de programmation intermédiaires entre le langage de la machine et le langage du programmeur. On a recours à la symbolisation des adresses, et les premières macro-instructions apparaissent. L’essor du logiciel commence à cette époque. 1954 est l’année du lancement de Fortran I, conçu par Backus à l’intention de l’IBM 704. C’est le premier langage évolué, très proche du langage de l’analyste; il nécessitera le développement d’un compilateur peu performant. Successivement, Fortran II (1957), Algol (1958), puis Algol 60 (1960) verront le jour; en 1962, K. E. Iverson crée APL. On constaste que l’ordinateur est alors investi d’une mission essentiellement scientifique: on traite les mots, les bits, mais on ne sait pas très bien manipuler les caractères, les chaînes. Le début de l’ère des ordinateurs de gestion (NCR 304, RCA 501, IBM 1401, etc., 1959-1960) impose d’imaginer des langages plus adaptés aux problèmes commerciaux et d’un usage plus aisé pour les analystes-programmeurs. La Codasyl (Conference on Data System Languages), comité constitué par les utilisateurs de l’industrie, différentes agences du gouvernement fédéral américain et les constructeurs (principalement R.C.A.), crée en 1959 le langage Cobol, dont l’objectif est de faciliter le traitement des fichiers, tandis que l’organisation Share (clients d’I.B.M.) recommande en 1963 le développement de PL/1, langage réputé universel, c’est-à-dire adapté aussi bien aux applications scientifiques qu’aux applications de type commercial. À partir de 1964 (avec les ordinateurs de troisième génération), l’anarchie règne en matière de logiciel. Les langages se multiplient, les systèmes de programmation sont incompatibles et les constructeurs mettent en œuvre de volumineuses bibliothèques de programmes rendues nécessaires par la complexité croissante des machines. C’est l’époque de la naissance de la multiprogrammation, qui exige l’usage de la protection mémoire et le développement de nombreux programmes spécialisés chargés de la gestion interne de la machine: systèmes d’exploitation, moniteurs, superviseurs, programmes de gestion des entrées/sorties, programmes utilitaires de toutes sortes. Les utilisateurs s’y perdent et découvrent que le logiciel coûte cher. Une situation paradoxale s’instaure: alors que les performances du matériel ne cessent de s’améliorer, les performances globales des systèmes ne suivent pas au même rythme, d’autant plus que les utilisateurs ne savent pas optimiser le fonctionnement de leurs installations et doivent s’en remettre plus ou moins aveuglément aux recommandations des constructeurs. Cette situation caractérise la période 1964-1971. Avec les ordinateurs de la quatrième génération (1971), on commence à se préoccuper des performances du logiciel et les constructeurs tiennent compte, autant que possible, des doléances des utilisateurs, doléances exprimées par le truchement de nombreuses conférences internationales. La microprogrammation (déjà connue dans les années soixante) se développe et prend le relais du logiciel pour les opérations courantes ou répétitives, améliorant ainsi les performances. L’introduction du concept de mémoire virtuelle et l’extension du télétraitement et des réseaux (1972) donnent au logiciel une orientation davantage centrée sur l’organisation des procédures et le contrôle des circuits informatifs au sein des systèmes, tandis que la programmation élémentaire devient de plus en plus l’affaire de la microprogrammation. Après avoir longtemps suivi des chemins plus ou moins autonomes, logiciel et matériel se rejoignent (firmware , 1975). On observe en même temps une tendance marquée vers la modularité, qui exige une claire définition des interfaces, le recours à la programmation structurée et l’acceptation d’une parcellisation des tâches confiées à des systèmes évolutifs (traitement réparti, etc.).

Aspects socio-économiques

L’évolution des systèmes depuis Mark I illustre assez bien les difficultés que les constructeurs et les utilisateurs ont dû surmonter dans leurs relations mutuelles. Si l’on ne peut nier que l’ordinateur a eu une influence déterminante sur l’organisation et l’évolution des entreprises, il n’est pas certain que les produits offerts aient toujours correspondu aux besoins réels des utilisateurs. Ceux-ci, au cours de l’histoire de l’informatique, ont parfois été surpris par des perfectionnements ou des performances auxquels ils n’étaient pas préparés. Caractéristiques d’une économie d’abondance et d’expansion, les systèmes de traitement de l’information ont en effet exigé des efforts d’investissement qui étaient parfois à la limite des possibilités des entreprises, et les constructeurs, par leur dynamisme, ont posé aux utilisateurs de redoutables problèmes d’obsolescence. D’autre part, la classique opposition logiciel-matériel (rappelant la distinction de Platon entre arts libéraux et arts mécaniques) a fait naître des catégories professionnelles dont les statuts ont été longtemps mal définis et qui concernaient des gens d’abord issus de la mécanographie, puis formés «sur le tas», et enfin munis d’une spécialisation acquise dans des conditions quelquefois précaires. L’informatique est enseignée à l’université, dans les grandes écoles, dans les I.U.T., et dans les établissements scolaires du second degré. L’ordinateur est devenu un produit de consommation courante, accepté par une société pourtant longtemps réticente. Les micro-ordinateurs, l’abaissement des coûts, des exigences de plus en plus réduites en matière d’environnement ont accéléré le processus. L’ordinateur a trouvé sa place au sein de la société: celle d’un objet au service de l’homme.

Encyclopédie Universelle. 2012.

Игры ⚽ Поможем написать курсовую

Regardez d'autres dictionnaires:

  • École internationale des sciences du traitement de l'information — École internationale des sciences du traitement de l’information (EISTI) Logo de l École internationale des sciences du traitement de l’information Informations …   Wikipédia en Français

  • Analyse décisionnelle des systèmes complexes — L analyse décisionnelle des systèmes complexes est une discipline qui vise à fournir des méthodes et outils de pilotage des systèmes complexes ou de modélisation des environnements chaotiques (Théorie du chaos). La démarche insiste sur la… …   Wikipédia en Français

  • Urbanisation des systèmes d'information — Urbanisation (informatique) L urbanisation du système d information (SI) de l entreprise est une série de concepts calqués sur ceux de l urbanisation de l habitat humain (organisation des villes, du territoire), concepts qui ont été réutilisés en …   Wikipédia en Français

  • Applications des systèmes d'information géographique — Un Système d information géographique (SIG) est une intégration organisationnelle d un logiciel et de données géographiques. Autrement dit un système qui assure la collecte, le stockage, l’analyse et la visualisation de données. Les SIG aident à… …   Wikipédia en Français

  • Programme de medicalisation des systemes d'information — Programme de médicalisation des systèmes d information Le Programme de médicalisation des systèmes d information (PMSI) est un dispositif faisant partie de la réforme du système de santé français ayant pour but la réduction des inégalités de… …   Wikipédia en Français

  • Programme de médicalisation des systèmes d'information — Le Programme de médicalisation des systèmes d information (PMSI) est un dispositif faisant partie de la réforme du système de santé français ayant pour but la réduction des inégalités de ressources entre les établissements de santé (ordonnance du …   Wikipédia en Français

  • Commission nationale de l'informatique et des libertés — Région France Devise : L informatique doit respecter l identité humaine, les droits de l homme, la vie privée et les libertés …   Wikipédia en Français

  • Sûreté de fonctionnement des systèmes informatiques — La sûreté de fonctionnement des systèmes informatiques est le domaine de la sûreté de fonctionnement qui traite de l aspect « produit » de la qualité des systèmes informatiques, c est à dire la partie « qualité des processus d… …   Wikipédia en Français

  • Surete de fonctionnement des systemes informatiques — Sûreté de fonctionnement des systèmes informatiques La sûreté de fonctionnement des systèmes informatiques est le domaine de la sûreté de fonctionnement qui traite de l aspect « produit » de la qualité des systèmes informatiques, c est… …   Wikipédia en Français

  • Systèmes UNIX — UNIX UNIX (marque déposée officiellement comme UNIX, parfois aussi écrit comme Unix avec les petites capitalisations) est le nom d un système d exploitation multitâche et multi utilisateur créé en 1969, conceptuellement ouvert et fondé sur une… …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”